close

Intelligence artificielle la technologie de notre temps

Si quoi l’intelligence artificielle ?

L’intelligence artificielle (IA) est le domaine du génie logiciel qui construit des systèmes informatiques et parfois des robots pour effectuer des tâches nécessitant de l’intelligence.

Le terme « intelligence artificielle » a été inventé par John McCarthy en 1958, alors étudiant diplômé à Princeton, lors d’un atelier d’été tenu à Dartmouth en 1956. Cet atelier de deux mois marque la naissance officielle de l’IA, qui a réuni de jeunes chercheurs qui ont nourri le domaine au fur et à mesure de sa croissance au cours des décennies suivantes : Marvin Minsky, Claude Shannon, Arthur Samuel, Ray Solomonoff, Oliver Selfridge, Allen Newell et Herbert Simon.

Histoire de l’intelligence artificielle

Au cours des années 1940, de nombreux chercheurs, sous couvert de cybernétique, avaient élaboré une grande partie des bases théoriques de l’IA et avaient même conçu les premiers ordinateurs. Parmi les contributions les plus importantes dont l’IA s’est appuyée, citons la théorie du calcul et l’ordinateur ACE d’Alan Turing, l’ordinateur ENIAC de John Von Neumann, la théorie de la communication de Claude Shannon, la théorie de l’information et de la rétroaction négative de Norbert Weiner, les réseaux logiques neuronaux de Warren McCulloch et Walter Pitts, la théorie de l’apprentissage et des mécanismes adaptatifs de W. Ross Ashby et les tortues robotiques autonomes de W. Grey Walter.

Le jeune groupe de Dartmouth différait des travaux antérieurs des cybernéticiens en ce sens qu’ils se préoccupaient principalement d’écrire des programmes informatiques numériques qui effectuaient des tâches considérées comme nécessitant de l’intelligence pour les humains, plutôt que de construire des machines ou de modéliser des cerveaux.

La recherche sur l’IA s’est concentrée sur les aspects clés du comportement intelligent, notamment le raisonnement automatisé, la prise de décision, l’apprentissage automatique, la vision artificielle, le traitement du langage naturel, la reconnaissance des formes, la planification automatisée, la résolution de problèmes et le contrôle des robots.

Ce domaine de recherche s’est fixé des objectifs ambitieux, cherchant à construire des machines capables de « surpasser » les humains dans des domaines particuliers de compétences et de connaissances, et obtenant un certain succès dans ce domaine. Certains chercheurs ont même émis l’hypothèse qu’il serait possible de construire des machines capables d’imiter le comportement humain en général d’ici la fin du XXe siècle, mais la plupart des chercheurs considèrent maintenant que cet objectif est inatteignable d’ici la fin du XXIe siècle.

Le premier programme d’IA

Le premier programme d’IA, Logic Theorist, a été présenté par Newell et Simon lors de l’atelier de Dartmouth en 1956. Le théoricien de la logique a prouvé des théorèmes de logique mathématique à partir d’un ensemble donné d’axiomes et d’un ensemble de règles pour déduire de nouveaux axiomes de ceux qu’il avait déjà. Étant donné un théorème, le théoricien de la logique tenterait de construire une preuve en essayant diverses chaînes d’inférence déductive jusqu’à ce qu’il arrive au théorème souhaité. Logic Theorist a été suivi par General Problem Solver en 1961.

Ce programme a démontré que la technique de la preuve des théorèmes pouvait être appliquée à toutes sortes de problèmes en définissant un « objectif » et en effectuant une recherche pour trouver une série de mouvements valides qui menaient de ce qui est déjà connu à l’objectif recherché. Cette technique peut bien fonctionner pour des problèmes simples, mais le nombre total de mouvements alternatifs possibles peut augmenter de façon exponentielle dans le nombre d’étapes vers une solution.

Étant donné que le programme doit continuer à revenir en arrière et à essayer tous les itinéraires alternatifs, la technique s’effondre rapidement pour des problèmes avec de nombreuses étapes. Ces défis ont conduit Newell et Simon à suggérer que la recherche en IA sur la résolution de problèmes devrait se concentrer sur la recherche de bonnes heuristiques, de stratégies de recherche ou de règles empiriques à utiliser lors de la recherche. Une bonne heuristique permet de trouver une solution plus rapidement en réduisant le nombre d’impasses rencontrées lors d’une recherche.

Le 27 juin 1963, la recherche sur l’IA a été catapultée en avant grâce à une énorme subvention de la Defense Advanced Research Projects Agency (DARPA) du ministère de la Défense des États-Unis au Massachusetts Institute of Technology AI Laboratory.

La subvention a été motivée en partie par les craintes des États-Unis après le lancement soviétique de Spoutnik et en partie motivée par l’enthousiasme extrême des chercheurs en IA que les ordinateurs auraient bientôt une intelligence semblable à celle de l’homme. Au début des années 1970, les recherches menées au Massachusetts Institute of Technology limitaient les espaces de recherche en étudiant des domaines d’application très simplifiés, ou micro-mondes comme on les appelait.

Le programme le plus célèbre, SHRDLU, prévoyait des manipulations dans un monde composé uniquement de blocs de bois posés sur une table appelée le monde des blocs. Bien que ces systèmes aient fait ce que leurs concepteurs avaient prévu, ont souvent conduit à des résultats théoriquement intéressants et ont finalement abouti à des technologies utiles ; Elles n’ont pas été à la hauteur des attentes du public ou des militaires en matière de machines intelligentes.

À la fin des années 1970, la DARPA s’est profondément inquiétée du fait que l’IA ne tiendrait pas ses promesses et a finalement réduit son financement de la recherche.

Les connaissances acquises grâce à la recherche sur les micro-mondes ont finalement trouvé une application dans le domaine de la planification automatisée. La planification commence généralement par la connaissance de l’état actuel du « monde », de l’état souhaité du monde et d’un ensemble d’actions appelées opérateurs qui peuvent être prises pour transformer le monde.

Les opérateurs STRIPS

Le Stanford Research Institute Problem Solver (STRIPS) était l’un des premiers planificateurs à utiliser un langage pour décrire les actions qui est encore largement utilisé et amélioré. Les opérateurs STRIPS se composent de trois éléments :

  1. La description de l’action
  2. Les conditions préalables de l’action, ou la façon dont le monde doit être avant que l’action puisse être entreprise
  3. L’effet, ou comment le monde a été changé depuis que l’action a été prise. Pour élaborer un plan, le système recherche une séquence d’opérateurs raisonnablement courte ou rentable qui permettra d’atteindre l’objectif. Les systèmes de planification ont été largement utilisés pour générer des calendriers de production dans les usines, pour trouver les moyens les plus efficaces de disposer des circuits sur des micropuces ou pour usiner le métal.

et pour planifier et coordonner des projets complexes impliquant de nombreuses personnes et organisations, tels que des lancements de navettes spatiales.

Une technologie d’IA qui a eu des applications précoces dans le monde réel est le système expert. Les systèmes experts utilisent une grande quantité de connaissances dans un petit domaine d’expertise afin de résoudre des problèmes dans ce domaine. Le premier système de ce type était DENDRAL, qui pouvait logiquement déduire la structure d’une molécule si on lui donnait sa formule chimique et des informations à partir d’un spectrogramme de masse de la molécule.

Cette tâche difficile a été accomplie par DENDRAL parce qu’il a été doté de règles empiriques et d’astuces pour reconnaître les motifs courants dans les spectrogrammes, développés en collaboration avec Joshua Lederberg, un chimiste lauréat du prix Nobel. Le système expert de nouvelle génération MYCIN utilisait des règles qui incorporaient l’incertitude comme poids de probabilité sur les inférences. MYCIN a utilisé quelque 450 règles de ce type pour diagnostiquer les maladies infectieuses du sang.

Les systèmes experts se sont avérés être l’une des applications les plus réussies de l’IA à ce jour. Des milliers de systèmes experts sont actuellement utilisés pour les diagnostics médicaux, l’entretien et le dépannage de dispositifs mécaniques complexes et l’aide à la recherche d’informations.

Une autre technologie d’IA réussie a été l’apprentissage automatique, qui développe des techniques permettant aux machines d’apprendre réellement de l’expérience et de s’améliorer au fil du temps. L’apprentissage automatique a été conçu pour la première fois par Ashby en 1940, tandis que le premier programme d’apprentissage réussi a été le programme de jeu de dames de Samuel en 1959.

La plupart des formes d’apprentissage automatique utilisent des techniques d’induction statistique pour déduire des règles et découvrir des relations dans des échantillons ou des données d’entraînement. L’apprentissage automatique est utile pour résoudre des problèmes dans lesquels les règles régissant le domaine sont difficiles à découvrir et une grande quantité de données est disponible pour l’analyse.

La reconnaissance de formes est le type de problème le plus courant pour les applications d’apprentissage automatique. Les systèmes de reconnaissance de formes les plus populaires, et peut-être la technologie d’IA la plus populaire, sont des réseaux neuronaux qui apprennent de l’expérience en ajustant les connexions pondérées dans un réseau.

Un réseau neuronal typique effectue une version de la classification statistique des modèles ; C’est-à-dire qu’il induit des modèles statistiques à partir de données d’entraînement pour apprendre une fonction représentative, puis applique cette fonction pour classer les exemples futurs. Une classification est simplement une fonction de mappage des entrées aux sorties, et donc un réseau neuronal ne fait que cartographier les objets à classer dans leurs types ou classes.

Considérons, par exemple, le problème de la classification de certaines formes géométriques bidimensionnelles dans un type de l’ensemble (carré, cercle, triangle, autre). Une fonction de mappage total attribuerait chaque membre de l’ensemble à l’un de ces quatre types. Cependant, il existe de nombreuses fonctions de mappage possibles, et seules quelques-unes d’entre elles classifieront les entrées de manière souhaitable.

De bonnes techniques pour les réseaux neuronaux permettront de trouver ces cartographies efficacement et d’éviter de s’enliser dans des impasses statistiques, appelées « minima locaux ». D’autres exemples de reconnaissance de formes incluent la reconnaissance vocale, la reconnaissance faciale, la reconnaissance de lettres manuscrites, la vision robotique et l’analyse de scène, dans lesquelles le programme doit faire correspondre des motifs audio ou visuels à des mots, des visages, des lettres, des objets ou des scènes, respectivement.

Le NLP

Un autre domaine important de la recherche sur l’IA a été le traitement du langage naturel (NLP). Le NLP tente de fournir aux ordinateurs la capacité de comprendre les langues humaines naturelles, telles que l’anglais ou le russe. Les travaux dans ce domaine se sont largement appuyés sur les théories de la grammaire et de la syntaxe empruntées à la linguistique informatique et ont tenté de décomposer les phrases dans leurs structures grammaticales, d’attribuer les sens corrects à chaque mot et d’interpréter le sens global de la phrase.

Cette tâche s’est avérée très difficile en raison des variations possibles du langage et des nombreuses formes d’ambiguïté qui existent. Les applications des programmes NLP réussis comprennent la traduction automatique d’une langue naturelle à une autre et les interfaces informatiques en langage naturel. Beaucoup de succès a été obtenu dans les domaines connexes de la reconnaissance optique de caractères et de la reconnaissance vocale, qui utilisent des techniques d’apprentissage automatique pour traduire des textes et des entrées sonores en mots, mais ne parviennent pas à interpréter le sens de ces mots.

Les programmes de jeu ont beaucoup fait pour populariser l’IA. Les programmes pour jouer à des jeux simples comme le tic-tack-toe (zéros et croix) sont triviaux, mais les jeux tels que les dames (dames) et les échecs sont plus difficiles. Chez IBM, Samuel a commencé à travailler en 1952 sur le programme qui serait le premier à jouer aux dames de niveau tournoi, un exploit qu’il a réalisé en apprenant de ses propres erreurs.

Le premier ordinateur à battre un grand maître humain dans un match d’échecs était HITECH en 1989. Et en mai 1997, l’ordinateur Deep Blue d’IBM a battu le joueur d’échecs le mieux classé au monde, Gary Kasparov. Malheureusement, le succès dans un seul domaine tel que les échecs ne se traduit pas par une intelligence générale, mais il démontre que des comportements apparemment intelligents peuvent être automatisés à un niveau de performance qui dépasse les capacités humaines.

L’une des applications d’IA grand public les plus courantes est probablement l’adversaire informatique dans les jeux vidéo qui « joue contre » l’utilisateur humain. Ces applications utilisent des techniques plus ou moins sophistiquées pour défier les adversaires humains et permettent souvent à l’humain de sélectionner le niveau de compétence de son adversaire.

Il serait difficile d’affirmer que les technologies dérivées de la recherche en IA ont eu un effet profond sur notre mode de vie à la fin du XXe siècle. Cependant, les technologies d’IA ont été appliquées avec succès dans de nombreux environnements industriels, en médecine et en soins de santé, ainsi que dans les jeux vidéo. Les techniques de programmation développées dans la recherche en IA ont été incorporées dans des pratiques de programmation plus répandues, telles que les langages de programmation de haut niveau et les systèmes d’exploitation à temps partagé.

Bien que l’IA n’ait pas réussi à construire un ordinateur qui affiche les capacités mentales générales d’un humain typique, comme l’ordinateur HAL dans Arthur C. Clarke et le film de Stanley Kubrick 2001 : L’Odyssée de l’espace, elle a produit des programmes qui effectuent des tâches apparemment intelligentes, souvent à un niveau de compétence et de fiabilité beaucoup plus élevé que celui des humains. Plus que cela, l’IA a fourni une image puissante et déterminante de ce que la technologie informatique pourrait un jour être capable d’accomplir.

Sciences et Technologies